早期对卵巢癌的准确检测对于确保对患者的适当治疗至关重要。在早期诊断研究中研究的一线方式中,有从蛋白质质谱中提取的特征。但是,该方法仅考虑光谱响应的特定子集,而忽略了蛋白质表达水平之间的相互作用,这也可以包含诊断信息。我们提出了一种新的模式,该模式通过考虑光谱的自相似性,自动搜索蛋白质质谱以获取歧视性特征。通过对蛋白质质谱的小波分解并估计所得小波系数的能量中的水平衰减速率来评估自相似性。使用距离方差以稳健的方式估算水平的能量,并通过滚动窗口方法在本地估算速率。这导致了一系列速率,可用于表征蛋白质之间的相互作用,这可以表明存在癌症。然后从这些进化速率中选择歧视性描述符,并用作分类特征。拟议的基于小波的特征与现有文献中提出的特征一起使用,用于使用美国国家癌症研究所(American National Cancer Institute)出版的两个数据集,用于卵巢癌的早期诊断。包括新模式的基于小波的特征可改善早期卵巢癌检测的诊断性能。这证明了提出的方式表征新的卵巢癌诊断信息的能力。
translated by 谷歌翻译
We explore the abilities of two machine learning approaches for no-arbitrage interpolation of European vanilla option prices, which jointly yield the corresponding local volatility surface: a finite dimensional Gaussian process (GP) regression approach under no-arbitrage constraints based on prices, and a neural net (NN) approach with penalization of arbitrages based on implied volatilities. We demonstrate the performance of these approaches relative to the SSVI industry standard. The GP approach is proven arbitrage-free, whereas arbitrages are only penalized under the SSVI and NN approaches. The GP approach obtains the best out-of-sample calibration error and provides uncertainty quantification.The NN approach yields a smoother local volatility and a better backtesting performance, as its training criterion incorporates a local volatility regularization term.
translated by 谷歌翻译
抒情的解释可以帮助人们快速理解歌曲及其歌词,还可以使管理,检索和发现音乐档案不断增长,从而更加容易地检索和发现歌曲。在本文中,我们提出了Bart-Fusion,这是一种新型模型,用于从歌词和音乐音频中生成歌词解释,该模型将大规模的预训练的语言模型与音频编码器结合在一起。我们采用跨模式注意模块将音频表示形式纳入歌词表示形式,以帮助预先训练的语言模型从音频的角度了解歌曲,同时保留语言模型的原始生成性能。我们还发布了歌曲解释数据集,这是一个新的大型数据集,用于培训和评估我们的模型。实验结果表明,其他音频信息有助于我们的模型更好地理解单词和音乐,并产生精确和流利的解释。跨模式音乐检索的另一个实验表明,巴特融合产生的解释也可以帮助人们比原始的巴特更准确地检索音乐。
translated by 谷歌翻译
我们从一组稀疏的光谱时间序列中构建了一个物理参数化的概率自动编码器(PAE),以学习IA型超新星(SNE IA)的内在多样性。 PAE是一个两阶段的生成模型,由自动编码器(AE)组成,该模型在使用归一化流(NF)训练后概率地解释。我们证明,PAE学习了一个低维的潜在空间,该空间可捕获人口内存在的非线性特征范围,并且可以直接从数据直接从数据中准确地对整个波长和观察时间进行精确模拟SNE IA的光谱演化。通过引入相关性惩罚项和多阶段训练设置以及我们的物理参数化网络,我们表明可以在训练期间分离内在和外在的可变性模式,从而消除了需要进行额外标准化的其他模型。然后,我们在SNE IA的许多下游任务中使用PAE进行越来越精确的宇宙学分析,包括自动检测SN Outliers,与数据分布一致的样本的产生以及在存在噪音和不完整数据的情况下解决逆问题限制宇宙距离测量。我们发现,与以前的研究相一致的最佳固有模型参数数量似乎是三个,并表明我们可以用$ 0.091 \ pm 0.010 $ mag标准化SNE IA的测试样本,该样本对应于$ 0.074 \ pm。 0.010 $ mag如果删除了特殊的速度贡献。训练有素的模型和代码在\ href {https://github.com/georgestein/supaernova} {github.com/georgestein/supaernova}上发布
translated by 谷歌翻译
我们使用深层部分最小二乘(DPL)来估算单个股票收益的资产定价模型,该模型以灵活而动态的方式利用调理信息,同时将超额回报归因于一小部分统计风险因素。新颖的贡献是解决非线性因子结构,从而推进经验资产定价中深度学习的当前范式,该定价在假设高斯资产回报和因素的假设下使用线性随机折现因子。通过使用预测的最小二乘正方形来共同投影公司特征和资产回报到潜在因素的子空间,并使用深度学习从因子负载到资产回报中学习非线性图。捕获这种非线性风险因素结构的结果是通过线性风险因素暴露和相互作用效应来表征资产回报中的异常情况。因此,深度学习捕获异常值的众所周知的能力,在潜在因素结构中的角色和高阶项在因素风险溢价上的作用。从经验方面来说,我们实施了DPLS因子模型,并表现出比Lasso和Plain Vanilla深度学习模型表现出卓越的性能。此外,由于DPL的更简约的架构,我们的网络培训时间大大减少了。具体而言,在1989年12月至2018年1月的一段时间内使用Russell 1000指数中的3290资产,我们评估了我们的DPLS因子模型,并生成比深度学习大约1.2倍的信息比率。 DPLS解释了变化和定价错误,并确定了最突出的潜在因素和公司特征。
translated by 谷歌翻译
每年,在越来越复杂的多种域名,包括GO,Poker和Starcraft II在内的著名示例中都能达到专家级的性能。这种快速的进步伴随着相应的需求,以更好地了解这种代理如何实现这种绩效,以实现其安全的部署,确定局限性并揭示其改善它们的潜力。在本文中,我们从以性能为中心的多种学习中退后一步,而是将注意力转向代理行为分析。我们介绍了一种模型 - 反应方法,用于使用变异推理在多种基因域中发现行为簇,以学习关节和局部代理水平的行为层次结构。我们的框架没有对代理的基础学习算法的假设,不需要访问其潜在状态或模型,并且可以使用完全离线观察数据进行培训。我们说明了我们方法在联合和地方代理层面上对行为的耦合理解的有效性,在整个培训过程中检测行为变更点,发现核心行为概念(例如,那些促进更高回报的核心行为概念)的有效性,并证明了方法的可扩展性高维的多基金会木叶控制结构域。
translated by 谷歌翻译
解开的顺序自动编码器(DSAE)代表一类概率图形模型,该模型描述了具有动态潜在变量和静态潜在变量的观察到的序列。前者以与观测值相同的帧速率编码信息,而后者在全球范围内控制整个序列。这引入了归纳偏见,并促进了基础本地和全球因素的无监督分解。在本文中,我们表明,香草dsae对动态潜在变量的模型结构和容量的选择敏感,并且容易折叠静态潜在变量。作为对策,我们提出了TS-DSAE,这是一个两阶段的培训框架,首先学习序列级别的先验分布,随后将其用于正规化该模型并促进辅助目标以促进分解。在广泛的模型配置中,对全局因子崩溃问题进行了完全无监督和强大的框架。它还避免了典型的解决方案,例如通常涉及费力参数调整和特定于域的数据增强的对抗训练。我们进行定量和定性评估,以证明其在人工音乐和现实音乐音频数据集上的分离方面的鲁棒性。
translated by 谷歌翻译
具有更多数据,计算和参数的缩放语言模型在自然语言处理方面取得了重大进展。例如,由于缩放,GPT-3能够在内心学习任务上实现强烈结果。但是,培训这些大密度模型需要大量的计算资源。在本文中,我们提出并开发了名为Glam(通用语言模型)的语言模型系列,它使用稀疏激活的专家架构来规模模型容量,同时与致密变体相比,也产生显着更少的训练成本。最大的Glam具有1.2万亿参数,比GPT-3大约为7倍。它仅消耗了用于训练GPT-3的1/3的能量,并且需要一半的计算拖鞋进行推理,同时仍然在29个NLP任务中实现更好的整体零射击和一次性性能。
translated by 谷歌翻译
零射击学习(ZSL)的目前方法努力学习能够捕获复杂相关性的易于化语义知识。通过\ EMPH {螺旋课程},这增强通过重新访问知识学习过程的启发,我们提出螺旋学习的一种形式,其重访基于属性组的序列(视觉表示例如,\ EMPH {颜色}和\ EMPH的组合组{形状})。螺旋学习旨在学习广义本地相关性,使模型能够逐步增强全球学习,从而了解复杂的相关性。我们的实现基于2级\ emph {加强自修订(RSR)}框架:\ emph {preview}和\ emph {review}。 RSR首先预览视觉信息以虚弱的方式构建不同的属性组。然后,它基于属性组螺旋地学习精细的本地,并使用本地来修改全局语义相关性。我们的框架在零射频和广义零点设置的四个基准数据集中占据了最先进的算法,这证明了螺旋学习在学习易于和复杂的相关性方面的有效性。我们还进行了广泛的分析,以显示属性组和加强决策过程可以捕获互补语义信息以改善预测和援助解释性。
translated by 谷歌翻译
感知毒性取决于会话上下文的用户帖子在目前的毒性检测数据集中是罕见的。因此,在现有数据集上培训的毒性探测器也将倾向于忽略上下文,在发生这种情况时使上下文敏感毒性更加困难。我们构建和公开发布10,000个帖子的数据集,其中有两种毒性标签:(i)注释者认为每个帖子作为上下文; (ii)注释者没有其他背景。基于此,我们介绍了一个新的任务,上下文敏感性估计,旨在识别如果也考虑上下文(前一篇文章),则识别感知毒性变化的帖子。然后,我们在此任务上评估机器学习系统,显示可以开发实际质量的分类器,我们表明,具有知识蒸馏的数据增强可以进一步提高性能。这些系统可用于增强具有更多上下文依赖的帖子的毒性检测数据集,或者建议当主持人应考虑父柱时,这通常可能是不必要的,否则可能会引入显着的额外成本。
translated by 谷歌翻译